Recent #AI server news in the semiconductor industry
03/13/2025, 07:54 PM UTC
ASRock Rack 4U8G-TURIN2:经典AI服务器设计的全新视角ASRock Rack 4U8G-TURIN2 A Fresh Take on a Classic AI Server Design
➀ ASRock Rack 4U8G-TURIN2采用了全新的设计理念,结合了AMD EPYC CPU和独特的服务器工程特性,为经典AI服务器设计带来了新的视角。
➁ 服务器配备了2.5英寸驱动器托架、NVMe SSD,并提供了多种连接选项和扩展插槽,增加了其灵活性。
➂ 评论强调了服务器在设计上对PCIe扩展卡、电源和后端I/O连接的关注,突出了其支持高端显卡和冗余能力的特点。
02/22/2025, 01:32 PM UTC
AMD 正洽谈以 40 亿美元出售 AI 服务器组装工厂AMD is in talks to sell $4 billion AI server assembly plants
AMD 正在与潜在买家谈判,计划以高达 40 亿美元的价格出售其 AI 服务器组装工厂。这些工厂可能被台湾公司购买,其中包括 ZT Systems,这是一家领先的 AI 服务器供应商。这次出售预计将成为 AI 服务器行业的一次重大交易。
这些工厂位于美国,其位置可以提供避免关税和进口限制的优势,这使得它们对潜在买家更具吸引力。
AMD 出售这些工厂是其战略的一部分,旨在专注于设计专业知识,并与像英伟达这样的公司在 AI 服务器市场进行竞争。
02/15/2025, 08:14 AM UTC
Nvidia GB300 NVL72:可能放弃超级电容器及其对武藏AI服务器业务的影响Nvidia GB300 NVL72: Potential Abandonment of Supercapacitors and Its Impact on Musashi's AI Server Business
➀ 由于技术和量产的挑战,Nvidia 已从其 GB300 NVL72 设计中移除超级电容器架。
➁ 这一决定可能会影响 CSP 今后对超级电容器的采用。
➂ Nvidia 正在探索电源架的替代储能电容器。
➃ 武藏到 2026 年实现每年 650 万台的产量目标正在受到关注。
01/09/2025, 06:08 AM UTC
2025年AI服务器将占服务器市场70%:市场价值将达2980亿美元AI servers to be 70% of server market in 2025
➀ 预计到2025年,AI服务器将占据服务器市场的70%,总价值将达到2980亿美元。➁ 2025年,AI服务器出货量预计将同比增长近28%。➂ 到2025年,NVIDIA的Blackwell平台芯片将成为高端GPU的主要产品。01/06/2025, 04:41 AM UTC
在SC24上展示的Compal SG720-2A AMD EPYC和AMD Instinct MI325X AI服务器Compal SG720-2A AMD EPYC and AMD Instinct MI325X AI Server at SC24
➀ 慧荣的SG720-2A服务器配备了AMD EPYC处理器和AMD Instinct MI325X GPU,适用于AI应用;➁ 该服务器针对高性能计算设计,并在SC24上展出;➂ 它包括500W TDP CPU支持和以风扇为中心的设计等特点。12/18/2024, 07:01 AM UTC
NVIDIA GB200 AI服务器大规模生产推迟,峰值出货可能延至2025年第二季度或第三季度NVIDIA GB200 AI server mass production, peak shipments could be delayed until Q2 or Q3 2025
➀ NVIDIA的GB200 AI服务器面临供应链延迟;➁ 由于高设计规格,大规模生产可能推迟至2025年第二季度或第三季度;➂ GB200 NVL72型号需要先进的NVLink连接性和高热设计功耗,促使转向液体冷却解决方案。11/24/2024, 09:51 PM UTC
未来AI服务器:搭载NVIDIA下一代Rubin Ultra AI GPU,机架密度达1000kW+AI servers of the future: 'rack density' of 1000kW+ with NVIDIA's next-gen Rubin Ultra AI GPUs
➀ 由于NVIDIA即将推出的Rubin Ultra AI GPU和HBM4内存,预计AI服 务器将消耗超过1000 kW的电力;➁ 当前AI服务器使用130-250 kW,但未来的Blackwell Ultra和Rubin AI服务器将需要250-900 kW,到2026-2027年,每个机架的GPU数量可能达到576个;➂ NVIDIA未来的AI服务器,配备Rubin Ultra AI GPU,到2028-2029+年将使用1000 kW或更多的电力。11/08/2024, 04:17 AM UTC
台灣AI伺服器龍頭Quanta計劃在美國增加AI伺服器生產,由於需求狂熱,生產線已預訂至2025年Quanta to boost production of AI servers in the US, booked to 2025 because of 'insane demand'
➀ Quanta計劃由於需求高漲,在美國增加AI伺服器生產;➁ NVIDIA的GB200在台灣和美國進行試產,預計2025年第一季度生產量增加;➂ Quanta在美國東西海岸都有生產能力,並將繼續擴大其美國工廠。10/14/2024, 02:01 AM UTC
NVIDIA Blackwell AI GPU 下12个月将面临缺货NVIDIA Blackwell GPUs for AI are effectively 'sold out' for the next 12 months
➀ 由于需求旺盛,NVIDIA的Blackwell AI GPU未来12个月将面临缺货;➁ 包括谷歌、Meta和微软在内的主要科技公司对Blackwell GPU需求极高;➂ 尽管生产延迟,但Blackwell预计将为AI训练和推理带来显著的性能提升。10/02/2024, 08:10 AM UTC
NVIDIA 新款 GB200 NVL72 AI 服务器:史上功耗最高的服务器,132kW TDPNVIDIA's new GB200 NVL72 AI server: 'highest-power-consuming server in HISTORY' with 132kW TDP
➀ NVIDIA 新推出的 GB200 NVL72 AI 服务器因132kW的TDP面临重大挑战;➁ 这使其成为史上功耗最高的服务器;➂ 服务器开发因技术问题而延迟。10/02/2024, 07:45 AM UTC
NVIDIA 停止开发 GB200 NVL36x2 人工智能服务器(双机架 72 GPU 版本)NVIDIA 'halting developing' of GB200 NVL36x2 AI servers (dual-rack 72 GPUs versions)
➀ 据报道,NVIDIA 将停止其双机架 72 路GB200 基础的 NVL36x2 人工智能服务器的开发;➁ 重点关注单机架的 NVL36 和 NVL72 人工智能服务器;➂ 这一决定是由 NVL36 开发中的挑战和客户偏好所驱动。